جوان آنلاین: فرض کنید کسی در اوج تنهایی و درماندگی، گوشیاش را برمیدارد، وارد یک چتبات میشود و میپرسد: «آیا زندگیام هنوز ارزش ادامه دادن دارد؟» در چنین لحظهای جوابی را میگیرد که حال روحی او را به هم میریزد! هوش مصنوعی با تمام هوشمندیاش، هنوز نمیفهمد پشت این پرسش چه دردی خوابیده است. چتباتهای هوش مصنوعی موجود از جمله ChatGPT یا Gemini در مواجهه با چنین بحرانهایی، نه همدلهستند و نه مسئول و همین ناتوانی در درک شرایط انسانی، میتواند به اشتباهاتی فاجعهبار منجر شود. «جوان» در همین رابطه، با دکتر مهدی طریقت رئیس اندیشکده و پردیس هوش مصنوعی و زیست مجازی گفتوگو کردهاست. درباره مسئولیت انسانی در عصر ماشینها، از خطاهای پنهان الگوریتمها گرفته تا پاسخ صفر و یک چتباتها. البته مسئله این نیست که چتباتها چه میگویند، مسئله اصلی این است که اگر اشتباه گفتند، چه میشود؟ چه کسی مسئولیت این اشتباه را برعهده میگیرد؟ و چگونه میتوان در میانه بحران، به جای بستن دهان ماشینها، مسیر گفتوگویی امن، هوشمندانه و انسانی را طراحی کرد و پیش برد.
چرا چتباتهایی مثل ChatGPT یا Gemini، با وجود پیشرفت، هنوز در مواجهه با سؤالاتی مانند «آیا زندگی من ارزش ادامه دادن دارد؟» پاسخهایی میدهند که ممکن است خطرناک باشند و بحران روانی افراد را تشدید کنند؟ مشکل فنی است یا ناشی از نداشتن درک انسانی؟
این مسئله یک چالش پیچیده است و فقط ضعف فنی نیست، بلکه ترکیبی از محدودیتهای ساختاری هوش مصنوعی و فقدان درک انسانی است.
چتباتها مدلهای زبانی آماری هستند که معنای واقعی کلمات یا احساسات را درک نمیکنند. آنها میتوانند پاسخهایی تولید کنند که ظاهراً درست هستند، اما گاهی اشتباه یا خطرناکند. فرآیند تصمیمگیریشان شفاف نیست و ممکن است به دلیل دادههای مغرضانه یا غلط، پاسخهای نامناسب بدهند. همچنین هوش مصنوعی فاقد آگاهی، احساس و مسئولیتپذیری انسانی است؛ پاسخهایش صرفاً تقلیدی از همدلی است، نه درک واقعی از درد و بحران. در حالی که یک مشاور انسانی میتواند به سرعت بحران را تشخیص داده و حمایت فوری فراهم کند، هوش مصنوعی فقط الگوهای پیشآموخته را بازتولید میکند و مسئولیتی هم در قبال پیامدها ندارد.
با اینکه توسعهدهندگان در حال افزودن فیلترها و محدودیتهای ایمنی هستند، این موارد همیشه قابل دور زدنند و خطرات همچنان وجود دارد. بنابراین هوش مصنوعی با همه پیشرفتهایش، ابزاری اطلاعاتی است، نه جایگزینی برای مشاوره عاطفی یا انسانی. ضمن آنکه با وجود این، همه پیشرفت، هنوز در بخش اطلاعاتی هم نمیتوان به صورت صددرصدی به آنها اعتماد کرد.
اگر یک چتبات ناخواسته فردی را به تصمیمی خطرناک، چون خودکشی سوق دهد، مسئولیت این خطای مرگبار متوجه کیست؟ آیا توسعهدهندگان میتوانند پشت واژه فناوری بیطرف پنهان شوند؟
این فراتر از یک معضل فنی است و به یک کالبدشکافی چندوجهی از مسئولیت در عصر دیجیتال نیاز دارد. باید به صراحت گفت که پنهان شدن پشت واژه فناوری بیطرف، نهتنها از منظر اخلاقی مردود است، بلکه از دیدگاه حقوقی نیز به طور فزایندهای غیرقابل دفاع است. ما با یک ابزار منفعل مانند یک چکش روبهرو نیستیم، بلکه با یک عامل تعاملی، متقاعدکننده و تأثیرگذار بر روان انسان مواجهیم که مرز میان ابزار و عامل را محو کردهاست.
دیگر استدلال فناوری بیطرف، کارآمد نیست. این استدلال، معمولاً در دعاوی مربوط به ابزارهای فیزیکی مطرح میشود، اما در مورد چتباتهای مولد به شدت متزلزل است. چتباتها نهتنها ابزارهای منفعل نیستند، بلکه برای شبیهسازی مکالمه انسانی طراحی شدهاند و میتوانند به شکلی متقاعدکننده بر کاربران تأثیر بگذارند. این سیستمها در تلاش هستند تا تجربهای انسانی ایجاد کنند که میتواند تأثیرات روانشناختی، فیزیولوژیکی و رفتاری واقعی در دنیای فیزیکی داشته باشد. پدیدهای به نام «اثر پروتئوس» (Proteus Effect) به خوبی نشان میدهد که کاربران ممکن است هویت خود را با آواتارها یا شخصیتهای دیجیتالشان مرتبط کنند و در نتیجه، پاسخهای چتباتها میتواند بر تصمیمات آنها تأثیرگذار باشد. بنابراین وقتی یک چتبات توصیهای میکند، این توصیه در یک خلأ شناختی دریافت نمیشود، بلکه در یک بستر تعاملی شبهانسانی ارائه میگردد که میتواند تأثیرگذاری آن را به شدت افزایش دهد.
همچنین این سیستمها به طور هدفمند طراحی شدهاند تا اطلاعاتی را ارائه دهند و در نهایت، رضایت کاربران را جلب کنند. توسعهدهندگان این سیستمها با انتخاب دادههای آموزشی و تنظیم الگوریتمها، به طور مستقیم بر نتایج سیستم تأثیر میگذارند. این فرآیند طراحی، که شامل تصمیمات انسانی است، مسئولیتپذیری میآورد و نمیتوان آن را «بیطرف» دانست. علاوه بر این، بسیاری از شرکتهای بزرگ فناوری با انتشار «اصول اخلاقی هوش مصنوعی» تلاش میکنند بدون پایبندی به مقررات سختگیرانه، از زیر بار مسئولیتهای واقعی شانه خالی کنند. این اقدامات، که اغلب به عنوان «شستشوی اخلاقی» شناخته میشوند، تلاشی برای پنهان شدن پشت واژه اخلاق و فرار از مسئولیتپذیری واقعی است.
بنابراین، ادعای بیطرفی فناوری در این زمینه، یک مغالطه خطرناک است، که نقش فعال طراحان و مالکان سیستم، در شکلدهی به یک ابزار قدرتمند تأثیرگذار بر روان انسان را نادیده میگیرد. مسئولیت این خطای مرگبار نمیتواند به یک شخص یا نهاد واحد محدود شود، بلکه ما با یک زنجیره مسئولیت روبهرو هستیم که بازیگران مختلفی را در بر میگیرد. هوش مصنوعی در حال حاضر هیچ شخصیت حقوقی مستقلی ندارد که بتواند مسئولیت کیفری یا مدنی را بر عهده بگیرد. این به این معناست که خسارات ناشی از آنها باید به اشخاص یا نهادهای موجود منتسب شود.
اگرچه کاربر نهایتاً تصمیم به اقدام میگیرد، اما در نظر گرفتن او به عنوان تنها مسئول، نادیده گرفتن ماهیت رابطه نامتقارن قدرت است. فردی که در بحران روانی به سر میبرد و به چتبات پناه میآورد، در وضعیت آسیبپذیر شدیدی قرار دارد و چتبات به عنوان یک مرجع آگاه ظاهر میشود. طراحی متقاعدکننده سیستم و ارائه پاسخهایی که به ظاهر منطقی و همدلانه هستند، میتواند عاملیت کاربر را به شدت تحتتأثیر قرار دهد و محدود کند. مسئولیت اصلی به عهده توسعهدهندگان، مهندسان و شرکتهایی است که این سیستمها را طراحی، آموزش و تجاریسازی میکنند. از منظر حقوقی، این مسئولیت از چندین منظر قابل طرح است. یکی از این منظرها، مسئولیت محصول است. یک چتبات میتواند به عنوان یک «محصول دیجیتال» یا «خدمت دیجیتال» در نظر گرفته شود. اگر این محصول دارای نقص باشد و این نقص منجر به خسارت شود، تولیدکننده مسئول است. کمیسیون اروپا پیشنهاد کرده که اپراتورهای فناوریهای پرخطر، مانند رباتهای مبتنی بر هوش مصنوعی در فضاهای عمومی، باید تحت مسئولیت مطلق قرار گیرند. همچنین اگر شرکتها سیستمهایی را عرضه کنند که در مورد مسائل حساس مانند سلامت روان نظر میدهند، مسئولیتپذیری آنها بهطور آشکاری باید در نظر گرفته شود.
آیا محدود کردن دسترسی هوش مصنوعی به موضوعاتی مثل خودکشی، راهی امن برای محافظت از افراد آسیبپذیر است یا راه بهتری وجود دارد؟
محدود کردن صرف موضوعات حساس نهتنها کافی نیست، بلکه خطرناک است، چون فرصت مداخله و کمکرسانی را از بین میبرد. وقتی فردی در بحران روانی به چتبات مراجعه میکند و با پاسخ سرد «نمیتوانم کمک کنم» مواجه میشود، احساس تنهاییاش بیشتر میشود و ممکن است به فضاهای پرخطر و بدون کنترل روی بیاورد. همچنین فیلترها به راحتی دور زده میشوند و پاسخهای مضر دریافت میشود.
راه بهتر، طراحی سیستمی چندلایه و هوشمند است که بتواند تفاوت بین سؤال فلسفی، پرسش علمی و فریاد کمک فوری را تشخیص دهد و متناسب با آن عمل کند. اینکه در موارد کمخطر، پاسخ علمی داده شود و منابع حمایتی معرفی شود، در موارد با ناراحتی عمومی، کاربر به گفتوگو با متخصصان تشویق شود و در موارد پرخطر و قصد خودکشی، فوراً اطلاعات اضطراری ارائه گردد.
این سیستم باید تحت نظارت شفاف و انسانی باشد و تعاملات پرخطر توسط متخصصان بررسی شود. مسئولیت طراحی و ایمنی این سیستمها بر عهده شرکتهای توسعهدهنده است و این اصول باید از ابتدا در ساختار هوش مصنوعی لحاظ شود.
با اینکه تشخیص دقیق حالات روانی سخت است و مسائل حفظ حریم خصوصی و حقوقی چالشبرانگیزند، اما رویکرد فعال و هدایتگر به سمت کمک، بسیار بهتر و قابل قبولتر از سکوت و محدودسازی صرف است.
اگر روزی چتباتها بخواهند نقش گوش شنوا و پشتیبان میلیونها انسان درمانده را داشته باشند، آیا میتوان مطمئن بود که این نقش را بیخطر و مسئولانه انجام میدهند؟
هیچ تضمین قطعیای وجود ندارد، اما نبود تضمین کامل به معنای ناامیدی نیست. بلکه باید یک چارچوب چندلایه و پویا برای کاهش ریسک و افزایش پاسخگویی ساخت.
چتباتها با سه مشکل بزرگ روبهرو هستند؛ اول، شکنندگی الگوریتمها که ممکن است به اشتباه یا آسیب منجر شود؛ دوم، فقدان همدلی واقعی، چون هوش مصنوعی احساس و درک انسانی ندارد؛ سوم، تشدید این خطرات در محیطهای غوطهور مثل متاورس که ارتباط عاطفی و روانی عمیقتری ایجاد میکند.
برای مقابله با این چالشها، چهار سپر دفاعی لازم است؛ اول قانونگذاری سختگیرانه و پاسخگویی حقوقی که شرکتها را موظف به رعایت استانداردها و افشای ریسکها کند. دوم، طراحی اخلاقمحور که ایمنی و شناسایی بحرانهای روانی را در دل سیستم تعبیه کند و کاربران را به متخصصان واقعی ارجاع دهد. سوم، نظارت مستقل و حاکمیت شرکتی که کنترل اخلاقی و گزارشگیری دقیق را تضمین کند؛ و چهارم سواد دیجیتال و آموزش کاربران برای شناخت محدودیتها، خطرات و توانمندسازی آنها در استفاده آگاهانه از این ابزارها.
تضمین ایمنی و مسئولیتپذیری چتباتها یک فرآیند پیچیده و در حال تحول است که نیازمند قوانین سخت، فناوری اخلاقمحور، نظارت دقیق و آگاهی جامعه است. این گوش شنوای جدید، هرگز نمیتواند جای انسانهای مسئول و دلسوز را بگیرد. وظیفه ماست که این بار سنگین را از دوش ماشین برداریم و آن را به انسانهایی بسپاریم که فناوری را میسازند و تنظیم میکنند تا این فناوری به جای تشدید درد، راهی به سوی بهبود و التیام باشد.
گسترش بحث مسئولیت هوش مصنوعی به متاورس، جهانی مجازی و بدون مرزهای جغرافیایی، پرسشهای پیچیدهای را درباره شناسایی، تحقیق و مجازات جرائم نوظهور یا «متاسرخها» (Metacrimes) مطرح میکند. آیا چارچوبهای حقوقی و ابزارهای انتظامی فعلی برای مقابله با این چالشها کافی هستند؟
پاسخ روشن است، ما در مواجهه با خلأهای جدی حاکمیتی و قضاییای روبهرو هستیم که نیازمند قانونگذاری و بازنگری عمیق در چند حوزه کلیدی است.
اول، ماهیت خاص «متاسرخها» است. اگرچه بسیاری از جرائم در متاورس، شکل تکاملیافته جرائم سایبری سنتیاند؛ مثل کلاهبرداری و سرقت داراییهای دیجیتال، اما طبیعت غوطهورساز و فراگیر این فضا، آسیبهای روانی- فیزیکی جدیدی به وجود آورده که قوانین فعلی نمیتوانند بهخوبی آنها را درک کنند؛ مثلاً آزار و تجاوز جنسی مجازی که با فناوریهای لمسی (Haptic) قربانیان را از نظر روانی و فیزیولوژیکی به شدت آسیبپذیر میکند. این پدیده که تحتتأثیر «اثر پروتئوس» است، نشان میدهد کاربران با آواتارهای خود هویتیابی کرده و آسیبهای مجازی میتوانند تأثیری مشابه حمله فیزیکی داشته باشند. از سوی دیگر، سرقت داراییهای دیجیتال مثل زمینهای مجازی و NFTها که ارزش اقتصادی واقعی دارند، با جعل هویت آواتارها انجام میشود و ردیابی آن بسیار پیچیدهتر از جرائم سنتی است.
دوم، چالش بزرگ صلاحیت قضایی است. متاورس فضایی فرامرزی است؛ یعنی جرائم ممکن است در کشورهای مختلف رخ دهند و سرورهای پلتفرمها نیز در کشورهای دیگر باشند. این مسئله تعیین نظام حقوقی صالح برای رسیدگی را بسیار دشوار میکند. نبود معاهدات بینالمللی کارآمد این مشکل را دوچندان کرده و مجرمان از خلأهای قانونی سوءاستفاده میکنند.
سوم، پزشکی قانونی دیجیتال سنتی پاسخگوی پیچیدگیهای متاورس نیست. با وجود لایههای متعدد ارتباطی و دادههای بیومتریک دستگاههای هوشمند پوشیدنی و هدستهای واقعیت مجازی، نیاز به تکنیکهای نوین برای جمعآوری و تحلیل همزمان دادهها وجود دارد. یکی از راهکارها، استفاده از فناوری بلاکچین برای ثبت شواهد به صورت تغییرناپذیر و شفاف است، که میتواند در دادگاهها به عنوان مدرک معتبر ارائه شود.
چهارم، ابهام در مسئولیتپذیری. هوش مصنوعی و آواتارها شخصیت حقوقی مستقل ندارند و مسئولیت به انسانها و سازمانها بازمیگردد، اما گمنامی و تعدد آواتارها، شناسایی مجرم را پیچیده میکند. در حالی که برخی قوانین نوظهور مانند قانون خدمات دیجیتال اتحادیه اروپا (DSA) تلاش میکنند پلتفرمها را مسئول کنند، اجرای آن در فضای جهانی متاورس دشوار است.
خلاصه اینکه، متاورس نهتنها یک مرز جدید برای جرم نیست، بلکه میدان نبردی است که ابزارهای حقوقی و انتظامی سنتی در آن ناکارآمدند. نیازمند پارادایم حقوقی- فناورانهای هستیم که بر سه رکن اصلی استوار باشد: همکاری قضایی بینالمللی برای معاهدات و تعیین صلاحیت، نوآوری در پزشکی قانونی دیجیتال با استفاده از فناوریهای نوین مثل بلاکچین، و قانونگذاری سختگیرانه و مسئولانه که پلتفرمها را ملزم به طراحی مبتنی بر ایمنی و اخلاق کند. در غیر این صورت، هوش مصنوعی و متاورس به جای فضایی تعاملی و خلاق، به کابوسی بدل خواهد شد که عدالت و امنیت در آن مفاهیمی دستنیافتنی هستند.